ایتنا - یک کارمند مالی که در یک شرکت چند ملیتی در هنگ کنگ مشغول کار بوده است، با فریب خوردن از کلاهبردارانی که از فناوری دیپفیک یا جعل عمیق استفاده کرده بودند مبلغ ۲۵ میلیون دلار به آنها پرداخت کرد.
ایتنا - برخی از کارشناسان بر این باورند که در سال ۲۰۲۴ پیشرفتهای هراسانگیزی را از هوش مصنوعی شاهد خواهیم بود. از تولید محتوای جعلی و ساختگی تا بسیاری تواناییهای دیگر از جمله کاربردهای عملی چتجیپیتی.
ایتنا - هند تصمیم دارد قوانینی برای نظارت بر «دیپ فیک» وضع کند. این در حالی است که نارندا مودی نخست وزیر این کشور نیز درباره این فناوری اظهار نگرانی کرده بود.
ایتنا - در شرایط جنگ و بحران ممکن است تصاویر دستکاری شدهای منتشر شود که حقیقت را تحریف کند اما با استفاده از گوشی همراه میتوان به راحتی صحت این تصاویر را بررسی کرد.
ایتنا - هوش مصنوعی با وجود مزیتهای هیجان انگیز فراوان، میتواند از سوی کلاهبرداران نیز مورد سوءاستفاده قرار بگیرد. در حال حاضر، برنامههای تولید کننده تصاویر برهنه جعلی وجود دارد که استفاده از برخی از آنها رایگان ...
ایتنا - این روزها هر کسی میتواند با اتصال به اینترنت به ابزارهای تصویرسازی مبتنی بر هوش مصنوعی دسترسی پیدا کند و با آن تصاویر دلخواه خود را بسازد. با این حال این تصاویر بسیار فریبندهاند و تشخیص آن از تصاویر واقعی ...
ایتنا - پس از انتشار ویدیوهای جعلی از هیلاری کلینتون و جو بایدن، نگرانیها درباره توسعه فناوریهای هوش مصنوعی و استفاده از آن در کارزارهای انتخاباتی افزایش یافته است.
ایتنا - مایکروسافت مدعی است ابزار یادشده عناصر ظریفی را در عکسها و ویدئوها مورد بررسی و توجه قرار میدهد که معمولاً انسان با چشم خود قادر به تشخیص آنها نیست.
ایتنا - شرکت بایت دنس که مالک اپلیکیشن شبکه اجتماعی تیک تاک است، قابلیتی را به طور آزمایشی به این برنامه افزوده که تولید ویدئوهای جعل عمیق را با دریافت یک عکس ممکن میکند.
ایتنا - اگر تا پیش از این از فتوشاپ برای ایجاد تصاویر جعلی استفاده میکردند که هرگز در واقعیت وجود نداشت، اکنون به لطف پیشرفت فناوری، ویدئوهای جعلی هم به گردونه اضافه شدهاند.
ایتنا - جعل عمیق استفاده از هوش مصنوعی برای دستکاری چند رسانه ای هاست؛ به نحوی که با استفاده از تصویر یا صدای افراد، آنها را در حال اظهار مطالبی نشان می دهند که در واقع چنین حرفی نزده اند. اکنون این تهدید جدی گرفته ...